Appel urgent à une pause dans le développement des intelligences artificielles
Certains experts et scientifiques en IA appellent à une pause de six mois dans le développement des intelligences artificielles avancées : Faut-il ralentir leur progression ? »
Des experts en intelligence artificielle, dont des professeurs, des chercheurs et des dirigeants d’entreprises renommées, ont signé une lettre ouverte publiée sur le site de la fondation Future of Life. Ils expriment leur inquiétude quant à l’impact des intelligences artificielles avancées sur notre société et estiment qu’une planification et une gestion adéquates sont nécessaires. Ils soulignent que le développement rapide des IA ces derniers mois manque de contrôle et de préparation suffisante, ce qui peut entraîner des risques profonds.
Quand les IA peuvent rivaliser avec nos compétences : quelles conséquences ?
« Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4 »
Les auteurs de la lettre soulignent l’importance de ne pas dépasser des modèles d’IA tels que ChatGPT-4, qui ont déjà démontré des performances proches de celles des êtres humains dans diverses tâches. Malgré ces avancées, les IA comme ChatGPT continuent de faire des erreurs et de diffuser des informations incorrectes. Les signataires remettent en question l’idée de laisser les machines propager de la propagande et des contrevérités, automatiser toutes les tâches, développer des esprits non humains qui pourraient éventuellement nous remplacer, et risquer de perdre le contrôle sur notre civilisation.
Lire aussi: Intelligence Artificielle les grandes dates
La proposition d’une pause de six mois vise à prendre du recul et à mettre en place des protocoles de sécurité stricts, supervisés par des experts indépendants, pour le développement de l’IA avancée. Cette pause permettrait également de mettre en œuvre des politiques et des systèmes de gouvernance adaptés à cette technologie. Les signataires encouragent les États à intervenir légalement si les laboratoires de développement d’IA ne prennent pas spontanément ces mesures. Ils soulignent que de telles décisions ne devraient pas être laissées entre les mains de dirigeants techniques non élus.